Световни новини без цензура!
AI „халюцинация“ в пр.н.е. съдът изисква внимание
Снимка: globalnews.ca
Global News | 2024-02-29 | 17:57:50

AI „халюцинация“ в пр.н.е. съдът изисква внимание

Работата на технологичен адвокат от Ванкувър с компании за видеоигри го постави в позиция да наблюдава възхода на изкуствения интелект в индустрията.

Сега Райън Блек отново се оказва на първа линия, тъй като професията му се бори с технологията.

„Степента, до която това повлия на игралните студиа, изненада хората“, каза Блек, който помогна на Юридическото дружество на Британска Колумбия да изготви съвети за адвокати относно използването на AI.

„Генеративната (AI) революция удари силно хората от гледна точка на „О, боже мой, трябва да обърнем внимание на това сега“, така че бих казал, че това е нещо ново за много хора“, каза той, имайки предвид технология, която може да създава аргументи и есета въз основа на подкани от потребител.

„Не ме изненадва, че адвокатите не знаят много за това.“

Възходът на генеративни AI инструменти като ChatGPT, каза той, е „революционна промяна в практиката на правото“.

Но скорошно решение на B.C. Върховният съд показва, че адвокатите трябва да използват технологията предпазливо и скептично, казват правни експерти.

В решение за разходите, публикувано на 20 февруари, свързано с дело за попечителство над дете, беше разкрито, че адвокатът от Ванкувър Чонг Ке е използвал ChatGPT да подготви представените по делото материали. Материалът включваше цитати на случаи, които не съществуват, нещо, което нейният опонент по делото нарече AI „халюцинация“. тя бързо информира Law Society и призна „липса на познаване на рисковете“ от използването на AI за изготвяне на съдебни становища.

„Сега съм наясно с опасностите от разчитането на материали, генерирани от Al“, каза Ке в клетвена декларация. „Разбрах, че този проблем е възникнал в други юрисдикции и че Юридическото общество е публикувало материали през последните месеци, предназначени да предупредят адвокатите в Британска Колумбия. на тези опасности.“

Ке се извини на съда и колегите си адвокати.

Нейният адвокат Джон Форстром каза в имейл, че случаят „е провокирал значителен обществен интерес, но същността на това, което се е случило, иначе е незабележимо.“

„Не съм сигурен, че случаят има някакви значителни последици по отношение на използването на генеративен ИИ в съдебните производства като цяло“, каза Форстром.

Имейлът, който ви нужда от най-важните новини за деня от Канада и целия свят.

„Г-жо Използването на AI от Ke в този случай беше призната грешка. Въпросът дали и как генеративният AI може да бъде подходящо използван в правната работа не е възникнал.“

Обществото вече разследва поведението на Ке, каза говорителката Кристин Там в имейл.

„ Въпреки че признава потенциалните ползи от използването на AI при предоставянето на правни услуги, Law Society също издаде насоки за адвокатите относно подходящото използване на AI и очаква адвокатите да спазват стандартите за поведение, очаквани от компетентен адвокат, ако разчитат на AI в обслужването на техните клиенти“, каза Там.

Насоките на юридическото общество, издадени в края на 2023 г., призовават адвокатите да потърсят обучение за използването на технологията и да са наясно с проблемите на поверителността около сигурността на данните, плагиатството и проблеми с авторските права и потенциални пристрастия в материалите, произведени от технологията.

Юридическите дружества и съдилищата в други провинции и територии също са изготвили насоки за използването на AI. Например Върховният съд на Юкон каза в практическа насока от юни 2023 г., че ако някой адвокат разчита на AI „за своите правни изследвания или изявления по какъвто и да е въпрос и във всякаква форма“, той трябва да уведоми съда.

За Блек, с фирмата DLA Piper, използването на AI причинява много „необходими тревоги относно разчитането на инструмент като този за извършване на истинска тежка работа.“

Блек каза, че доставянето на справедливост изисква безпристрастност на „човешки колега“, способен да оценява и взема важни правно обвързващи решения.

Той каза, че се е сблъсквал с адвокати и съдии, които или са „напълно погълнати от това, до пълно отвращение към него, или напълно агностици към него.“

Той каза, че е „впечатлен от скоростта на технологията“, но необходимостта от предпазливост и скептицизъм по отношение на всякакви материали, генерирани от материала, е от съществено значение за адвокатите сега и в бъдеще.

Размишлявайки върху случая Ke и други като него, Блек каза, че инструменти като ChatGPT са „наистина добри инструменти за автоматично коригиране, които вършат фантастична работа за свързване на текст с друг текст, но те нямат разбиране за света, те имат никакво разбиране на реалността.“

Професорът по право в UBC Кристен Томасен каза в интервю, че B.C. Делото във Върховния съд показва не само ограниченията на технологията, но и необходимостта адвокати и други професионалисти „да бъдат критични към технологиите, които използват“.

Томасен каза, че оценява силните и слабите страни на технологията трябва да се направи „въпреки това, което често е много реклама“.

Тя каза, че е важно да не се делегира работа, която изисква човешки елемент, на компютърна система в професии с „високи залози“ като правото и полиция, където новите, потенциално проблемни технологии трябва да се подхождат и използват с повишено внимание.

Томасен каза, че технологията е описана като „живо същество“ или екзистенциална заплаха за човечеството, или смятана за „свръхчовешка призрак в машината“, но въпреки че е много усъвършенстван, той просто прави математика въз основа на данни, изтрити от интернет.

Тя каза, че оттеглянето от разглеждането му като „човек“ ще помогне на институциите, студентите и учителите разбират по-добре какво всъщност прави технологията.

„Докато виждаме как напредва, мисля, че има смисъл след това, нещо като юридическите дружества, да продължим да разработваме по-прецизни и подробни насоки или правила, докато придобият по-добро разбиране за това как изглежда технологията“, каза тя.

Съдията по делото, което включва Ке, каза, че би било „разумно“ тя да каже на съда и на противните адвокати, ако има други материали използва AI технология като ChatGPT.

„Както този случай за съжаление показа ясно, генеративният AI все още не е заместител на професионалната експертиза, която съдебната система изисква от адвокатите“, пише съдия Дейвид Масухара в решението си за разходите. „Компетентността при избора и използването на всякакви технологични инструменти, включително тези, задвижвани от AI, е от решаващо значение. Целостта на съдебната система изисква не по-малко.“

Блек каза, че технологията за изкуствен интелект няма да изчезне и всички правила, разработени сега, вероятно ще се нуждаят от промяна поради „главоломната скорост“ на нейното развитие.

„Със сигурност вече сме в свят, в който ИИ ще съществува“, каза той. „Тази камбана не може да бъде премахната, що се отнася до мен.“

Източник: globalnews.ca


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!